home *** CD-ROM | disk | FTP | other *** search
/ Cream of the Crop 22 / Cream of the Crop 22.iso / comm / wsuck097.zip / WSUCK.HLP (.txt) < prev   
OS/2 Help File  |  1996-11-10  |  9KB  |  295 lines

  1.  
  2. ΓòÉΓòÉΓòÉ 1. WebSucker ΓòÉΓòÉΓòÉ
  3.  
  4.                                  WebSucker 0.97
  5.  
  6. WebSucker can retrieve Web pages from a HTTP (WWW) server. It can be configured 
  7. to follow all hyperlinks on the page that lead to other pages on the same 
  8. server. Images on the pages can be retrieved as well. All pages are stored on 
  9. disk and can be viewed later using your web browser. 
  10.  
  11. WebSucker can make use of a proxy HTTP server, speeding up the whole procedure. 
  12. WebSucker requires at least one HPFS partition! 
  13.  
  14. Topics: 
  15.  
  16.       The main window 
  17.       Common tasks 
  18.       Command line options 
  19.       For the techies 
  20.       Contacting the author 
  21.  
  22.  
  23. ΓòÉΓòÉΓòÉ 1.1. The main window ΓòÉΓòÉΓòÉ
  24.  
  25. On the main window you find the following elements: 
  26.  
  27.      A drop down list where you enter the URL. The last 15 URLs are saved. 
  28.      "Start", "Stop" and "Skip" buttons. 
  29.      A log window. Its contents are also stored in the log file. 
  30.      A status line. Its contents are: 
  31.         -  the current URL 
  32.         -  total number of data bytes retrieved 
  33.         -  total number of data bytes of the current URL 
  34.         -  number of bytes retrieved of the current URL 
  35.         -  number of URLs retrieved 
  36.         -  number of URLs tried 
  37.         -  number of URLs queued for inspection (estimated). 
  38.  
  39.  
  40. ΓòÉΓòÉΓòÉ 1.2. Common tasks ΓòÉΓòÉΓòÉ
  41.  
  42. Here's how to perform some common task with WebSucker: 
  43.  
  44. I wan't to suck a complete web site. 
  45.  
  46. In the setup, enable "Follow links", "Inline images". Disable "Don't climb up". 
  47. Then enter the root URL of the site (e.g. "http://www.thesite.com/"), then 
  48. press "Start". 
  49.  
  50. I wan't to suck a subrange of a web site. 
  51.  
  52. In the setup, enable "Follow links", "Inline images" and "Don't climb up". Then 
  53. enter the URL of the site (e.g. "http://www.thesite.com/some/path/start.html"), 
  54. then press "Start". 
  55.  
  56. I wan't to suck a single web page with images, but only if it's changed. 
  57.  
  58. In the setup, disable "Follow links". Enable "Inline images" and "Modified 
  59. pages only". Then enter the URL of the page (e.g. 
  60. "http://www.thesite.com/pageofinterest.html"), then press "Start". 
  61.  
  62.  
  63. ΓòÉΓòÉΓòÉ 1.3. Command line options ΓòÉΓòÉΓòÉ
  64.  
  65. WebSucker can be run in automated mode, i.e. it takes one or more URLs as 
  66. program parameters, downloads these pages according to the program options, and 
  67. exits when finished. 
  68.  
  69. The command line syntax is: 
  70.  
  71. WSUCK.EXE [<url> | @<listfile>]*
  72.  
  73. In other words, you can specify 
  74.  
  75.      one or more URLs, and 
  76.      one or more list files. Each line in a list file is interpreted as URL. 
  77.       Empty lines and lines starting with ';' are ignored. 
  78.  
  79.  When finished, WebSucker returns one of the following ERRORLEVEL values: 
  80.  
  81.  0         Everything OK 
  82.  1         Invalid command line option 
  83.  2         Problem(s) with one of the list files 
  84.  10        Other error 
  85.  
  86.  
  87. ΓòÉΓòÉΓòÉ 1.4. For the techies ΓòÉΓòÉΓòÉ
  88.  
  89. Here's some technical information if you're interested: 
  90.  
  91.      WebSucker uses HTTP 1.0. HTTP 0.9 is not supported. If some web site is 
  92.       still using a HTTP 0.9 server, its contents may be just as outdated, so 
  93.       you might not miss anything. 
  94.  
  95.      WebSucker only follows HTTP links, not FTP or others. 
  96.  
  97.      WebSucker counts <IMG SRC=...> and <BODY BACKGROUND=...> as inline 
  98.       images. 
  99.  
  100.      If the file name of a retrieved page isn't specified, it's stored as 
  101.       INDEX.HTML. 
  102.  
  103.      The "Last-Modified" timestamp is stored in the file's EAs. The EA name is 
  104.       HTTP.LMODIFIED and is of type EAT_ASCII. 
  105.  
  106.      Some characters in the URL are converted when building the path name of 
  107.       the file. However, no conversion to FAT (8.3) names is performed! 
  108.  
  109.      If a page is redirected, the redirection is automatically followed, but 
  110.       only if the new location is on the same server! 
  111.  
  112.      WebSucker has been developed on and tested with OS/2 Warp 4.0. It should 
  113.       also work with the following configurations: 
  114.  
  115.         -  Warp 3.0 with IAK 
  116.         -  Warp 3.0 with TCP/IP 2.0 
  117.         -  Warp 3.0 Connect (TCP/IP 3.0) 
  118.         -  Warp Server 
  119.  
  120.  
  121. ΓòÉΓòÉΓòÉ 1.5. Contacting the author ΓòÉΓòÉΓòÉ
  122.  
  123. WebSucker was developed by Michael Hohner. He can be reached electronically at: 
  124.  
  125.  EMail:              miho@osn.de 
  126.  Fidonet:            2:2490/2520.17 
  127.  CompuServe:         100425,1754 
  128.  
  129.  
  130. ΓòÉΓòÉΓòÉ 2. File menu ΓòÉΓòÉΓòÉ
  131.  
  132.  Exit 
  133.            Ends the program. 
  134.  
  135.  
  136. ΓòÉΓòÉΓòÉ 3. Setup ΓòÉΓòÉΓòÉ
  137.  
  138.  Options 
  139.            Specify all program options. 
  140.  
  141.  
  142. ΓòÉΓòÉΓòÉ 3.1. Servers ΓòÉΓòÉΓòÉ
  143.  
  144.  Proxy 
  145.            Enter the host name of a proxy HTTP server. You may also specify a 
  146.            port number for the proxy server. Check Enable to finally use the 
  147.            server. Contact your service provider to get this data. 
  148.  
  149.            Note: Only enter the host name, not the URL (e.g. "proxy.isp.com", 
  150.            not "http://proxy.isp.com:123/")! 
  151.  
  152.  Email address 
  153.            Enter your EMail address. It is included in every request. Don't 
  154.            enter anything here if you don't want your EMail address to be 
  155.            revealed. 
  156.  
  157.  
  158. ΓòÉΓòÉΓòÉ 3.2. Paths ΓòÉΓòÉΓòÉ
  159.  
  160.  Path for retrieved data 
  161.            Path where retrieved pages and images are stored. This path and 
  162.            subpaths are created automatically. 
  163.  
  164.  
  165. ΓòÉΓòÉΓòÉ 3.3. Logging ΓòÉΓòÉΓòÉ
  166.  
  167. These options control logging. 
  168.  
  169.  Log file 
  170.            Path and name of the log file. 
  171.  
  172.  Additional information 
  173.            Log additional (but somewhat optional) messages 
  174.  
  175.  Server replies 
  176.            Log reply lines by the server 
  177.  
  178.  Debug messages 
  179.            Log messages used for debugging purposes (turn on if requested). 
  180.  
  181.  
  182. ΓòÉΓòÉΓòÉ 3.4. Options ΓòÉΓòÉΓòÉ
  183.  
  184. These settings influence which items will be downloaded and how it'll be done. 
  185.  
  186.  Follow links 
  187.            If checked, hyperlinks in retrieved pages are followed. Otherwise, 
  188.            WebSucker retrieves one page only. 
  189.  
  190.            You can enter a set of extensions (separated by spaces, commas or 
  191.            semicolons) of items to retrieve. Links to items with other 
  192.            extensions are ignored. If you don't enter anything, all links are 
  193.            followed. 
  194.  
  195.            Example: With "htm html", WebSucker only follows links to other HTML 
  196.            pages, but does not download other hyperlinked files. 
  197.  
  198.  same servers 
  199.            Only links to items on the same server are followed. 
  200.  
  201.  don't climb up 
  202.            Hyperlinks to items that are hierarchically higher than the initial 
  203.            URL are not followed. Otherwise, all links to items on the same 
  204.            server are followed. 
  205.  
  206.            Example: 
  207.  
  208.            If you started with http://some.site/dir1/index.html, and the 
  209.            current page is http://some.site/dir1/more/levels/abc.html, a link 
  210.            that points to http://some.site/otherdir/index.html wouldn't be 
  211.            followed, but a link to http://some.site/dir1/x/index.html would. 
  212.  
  213.  all 
  214.            All links (even those to other servers) are followed. Be very 
  215.            careful with this option! 
  216.  
  217.  Inline images 
  218.            If checked, inline images are also retrieved. 
  219.  
  220.  from other servers 
  221.            If checked, inline images located on other servers are also 
  222.            retrieved. Otherwise only images from the same server are 
  223.            downloaded. 
  224.  
  225.  Java applets 
  226.            If checked, java applets are also retrieved. 
  227.  
  228.  from other servers 
  229.            If checked, applets located on other servers are also retrieved. 
  230.            Otherwise only applets from the same server are downloaded. 
  231.  
  232.  Retrieve modified items only 
  233.            An item is only retrieved if it's newer than the local copy. 
  234.            Strongly recommended! 
  235.  
  236.  Max link depth 
  237.            Limits the depth of links to follow to the specified number. A level 
  238.            of "1" specifies the initial page. 
  239.  
  240.            Example: 
  241.  
  242.            If page A contains a link to B, and B contains a link to C, A would 
  243.            be level 1, B would be level 2 and C would be level 3. A maximum 
  244.            link depth of "2" would retrieve pages A and B, but not C. 
  245.  
  246.  Max size 
  247.            Limits the size of items to download. If the server announces the 
  248.            size and it's larger than the number specified, the item is skipped. 
  249.            If the server doesn't announce the size, the item is truncated when 
  250.            the maximum size is reached. 
  251.  
  252.  
  253. ΓòÉΓòÉΓòÉ 3.5. Server list ΓòÉΓòÉΓòÉ
  254.  
  255. A list of base URLs is displayed. 
  256.  
  257. Press New to add a new URL with settings. 
  258.  
  259. Press Change to change the settings of the selected URL. 
  260.  
  261. Press Delete to delete the selected URL. 
  262.  
  263.  
  264. ΓòÉΓòÉΓòÉ 3.6. Server ΓòÉΓòÉΓòÉ
  265.  
  266.  Base URL 
  267.            Set of URLs (this item and all items hierarchically below) for which 
  268.            these settings apply. This usually specifies a directory on a 
  269.            server. 
  270.  
  271.            Example: 
  272.  
  273.            If you enter "http://some.server/basedir", these settings apply to 
  274.            "http://some.server/basedir/page1.html", but not to 
  275.            "http://some.server/otherdir/b.html". 
  276.  
  277.  User name 
  278.            User name or user ID used for basic authorization. 
  279.  
  280.  Password 
  281.            Password used for basic authorization. 
  282.  
  283.  
  284. ΓòÉΓòÉΓòÉ 4. Help menu ΓòÉΓòÉΓòÉ
  285.  
  286.  General help 
  287.            Provides general help 
  288.  
  289.  Product information 
  290.            Displays name, version number, copyright information etc. 
  291.  
  292.  
  293. ΓòÉΓòÉΓòÉ 5. About ΓòÉΓòÉΓòÉ
  294.  
  295. This page intentionally left blank.